简介由于智能系统和人类之间对透明度和信任的需求巨大,可解释人工智能规划(XAIP)最近因其在现实世界应用中的潜在应用而获得了广泛关注。在此背景下,最近出现的一个热门主题称为模型协调(Chakraborti 等人,2017 年)。该领域的研究人员研究了代理如何向可能对同一规划问题有不同理解的人类用户解释其决策。这些解释通过将最少数量的更新从代理模型转移到人类模型,使人类用户的模型更接近代理模型。然而,这些研究的共同点是,它们大多采用自动化规划方法,这并不奇怪。在本研究中,我们从知识表示和推理 (KR) 的角度解决了模型协调问题 (MRP),其中我们奠定了扩展 Vasileiou 等人 (2019) 提出的基于逻辑的框架的理论基础,并认为它可以有效地对 MRP 进行建模。由于我们的框架建立在各种 KR 技术之上,我们进一步详细阐述了这些技术之间的关系及其对 XAIP 的适用性,并提供了两个示例来强调与我们提出的框架的不同之处。
![arXiv:2011.09006v3 [cs.AI] 2020 年 12 月 16 日PDF文件第1页](/bimg/a/a3fbffc4855a159226a5e9b2ee1f25a9834a89cd.webp)
![arXiv:2011.09006v3 [cs.AI] 2020 年 12 月 16 日PDF文件第2页](/bimg/3/378107b197849461df2a1442104dd0e2a31e911a.webp)
![arXiv:2011.09006v3 [cs.AI] 2020 年 12 月 16 日PDF文件第3页](/bimg/0/0facb2e194962f895142e92879766d525fcf5c32.webp)
![arXiv:2011.09006v3 [cs.AI] 2020 年 12 月 16 日PDF文件第4页](/bimg/9/9fbd1c3ec8e5b469c117e6a182f061c88678b546.webp)
![arXiv:2011.09006v3 [cs.AI] 2020 年 12 月 16 日PDF文件第5页](/bimg/f/f88725d9d2d94cd268b52b3cd2c5c7ab67c82472.webp)
